Représentation des signaux - Analyse fréquentielle et transitoire
1.2.
Représentation de Fresnel
1.3.
Représentation par nombre complexe
1.4.
Représentation par spectre bilatéral
3. Signaux déterministes non périodiques
3.1.
Transformation de Fourier
3.2.
Transformation de Laplace
5.1. Exemples
de signaux aléatoires
_________________________________________________________________________________
L'objectif de cet exposé est de récapituler les différents outils à notre disposition pour l'étude d'un signal et du comportement d'un quadripôle linéaire vis à vis de ce signal.
Le problème général consiste à se poser la question de la forme et de l'équation du signal en sortie d'un quadripôle linéaire connu, attaqué par un signal en entrée lui aussi connu.
A première vue nous disposons de deux outils mathématiques :
- la première solution consiste à établir l'équation différentielle du quadripôle et la résoudre en fonction de l'entrée;
- la seconde solution consiste à d’utiliser le produit de convolution entre le signal d’entrée ve(t) et la réponse impulsionnelle h(t) du quadripôle.
Cette dernière solution peut être validée à l’aide du théorème de superposition. On peut en effet remarquer q’un signal d’entrée quelconque peut être vu comme une suite d'impulsions plus ou moins grandes collées les unes aux autres. Le signal de sortie sera donc la somme des différentes réponses aux impulsions. C’est l’opération que réalise le produit de convolution en sommant toutes les réponses impulsionnnelles, décalées en fonction de la position de l’impulsion d’entrée, et pondérées par l’amplitude de celle-ci.
Les figures suivantes illustrent, de manière grossière afin de pouvoir observer l’algorithme de calcul, cette opération pour un système du premier ordre.
On présente dans un premier temps la réponse du système à une impulsion à t=0, puis à la même impulsion retardée de t0
En appliquant une entrée en créneau décomposée en somme d’impulsions élémentaires, on peut alors observer la réponse globale du système.
On retrouve bien la forme de réponse attendue pour un premier ordre, à deux détails près : une ondulation importante et une asymptote qui ne tend pas vers 1. Ces deux imperfections résultent de la volonté de prendre des impulsions larges afin d’observer les détaIls du calcul.
Quelle que soit l'option choisie, équations différentielles ou produit de convolution, l'étude risque d'être relativement compliquée, aussi, suivant la forme du signal en entrée, nous pourrons utiliser des outils plus simples.
La forme sinusoïdale est la seule (avec le continu) qui ne subit pas de déformation après le passage dans un quadripôle linéaire. Dans l'exemple précédent, si ve(t) est une sinusoïde, vs(t) le sera aussi, d'amplitude et de phase différente. On pourra donc établir une relation simple entre les amplitudes et les phases des deux signaux, les coefficients de cette relation étant fonction par exemple des impédances des éléments constituant le quadripôle.
Plusieurs représentations d'un signal sinusoïdal sont possibles.
Le signal s'écrit alors d'une manière générale :
v(t) = A sin (w0t + f)
Cette forme reste relativement peu pratique pour d'éventuels calculs.
Lorsque la fréquence est constante, il peut être intéressant
d'avoir une représentation graphique du signal par un vecteur d'amplitude A (ou
si on s'intéresse à
la valeur efficace) et de phase f. Cet
outil est utilisé particulièrement en électrotechnique et pour représenter les
modulations d'amplitude ou de phase (ou combinaison des deux).
Pour des calculs un peu plus compliqués, le vecteur précédent peut être remplacé par un nombre complexe. On obtient alors :
V = A cos f + j A sin f
Ce nombre complexe, caractérisé par son module et son argument, peut aussi être écrit sous la forme suivante :
Cette forme permettra de travailler avec des signaux de fréquence différente en considérant le signal non plus comme un vecteur de phase f, mais de phase wt+f. On obtient alors :
|
|
La figure de droite représente le module du complexe en fonction de la pulsation w, aussi appelé représentation spectrale du signal. Bien que cette représentation ait ici peu d'intérêt, elle permettra d'introduire des notions plus élaborées.
En se rappelant que (et
), à partir de l'expression temporelle, on peut représenter
le signal par le nombre complexe suivant :
|
|
Le spectre du signal contient alors deux raies, une à la fréquence f0=w0/2p et une à -f0. Bien que cette fréquence négative n'ait pas de réalité physique, elle est parfois très intéressante pour expliquer certains phénomènes : spectre d'un signal modulé en amplitude, repliement de spectre d'un signal échantillonné etc...Il est important de remarquer que les raies sont d'amplitude deux fois plus faible dans ce spectre dit bilatéral, que dans le précédent dit mono latéral.
On peut noter que la puissance normalisée du signal, c'est à dire la puissance qui serait fournie à une résistance de 1 W, vaut bien A²/2.
Cette puissance se calcule en se rappelant que la puissance fournie par le signal est la somme des puissances fournies par chaque composante élémentaire.
On retrouve alors la valeur efficace au carré du signal. Ce résultat corrobore celui que l'on peut trouver avec l'expression temporelle sous forme sinusoïdale, mais ne se vérifie pas avec une représentation fréquentielle mono latérale.
La décomposition en série de Fourier nous montre qu'un signal périodique peut être considéré comme une somme de signaux sinusoïdaux.
avec
Quelques propriétés permettent de simplifier le calcul d'une série de Fourier :
- si v(t) est pair, alors les termes impairs seront nuls : bn=0 quel que soit n
- si v(t) est impair, alors les termes pairs seront nuls : an=0 quel que soit n
- si v(t) a des alternances positives et négatives identiques au signe près, c'est à dire v(t+T0/2)=-v(t), les termes harmoniques de rang pair seront nuls : a2k=b2k=0
Il est donc conseillé, lorsque cela est possible, de choisir judicieusement l'origine afin de bénéficier de ces propriétés. La dernière propriété peut être "dissimulé" par une valeur moyenne non nulle, dans cas d'un signal carré 0 - 5V par exemple.
On peut également exprimer v(t) par :
avec
Comme dans le cas d'un signal sinusoïdal, il est possible d'avoir une représentation bilatérale en écrivant :
avec
Les termes cn et c-n sont de nombres complexes conjugués. Le passage aux termes précédents est donné par :
|
|
On peut remarquer le coefficient "2" qui existe entre les différents termes, coefficient présent dès que l'on passe d'une représentation bilatérale à mono latérale. Ce coefficient intervient également dans le calcul de an et bn.
La forme de ces signaux est parfaitement connue, mais leur non-périodicité nous interdit l'utilisation des séries de Fourier. Deux outils sont à notre disposition.
Un signal non-périodique peut être vu comme un signal périodique de période infinie. A partir des séries de Fourier bilatérales on peut donc définir une transformation de Fourier où les sommations deviennent des intégrales :
On peut remarquer que l'unité de la transformée de Fourier d'une tension est le V.s. Le retour dans le domaine temporel se fait par :
La transformation de Fourier nous permettra de voir dans quelle bande de fréquence se trouve l'énergie d'un signal et en déduire par exemple la bande passante nécessaire pour les circuits véhiculant ce signal. On vérifie en effet que l'expression temporelle ou fréquentielle portent la même énergie normalisée W (théorème de Parseval) :
L'expression V(f) est un complexe dont le module est pair en fonction de f pour des signaux v(t) réels. On utilise alors souvent la transformation mono latérale dont le module est le double de la bilatérale
Les principales propriétés de cette transformation de Fourier sont résumées dans le tableau suivant :
propriété |
domaine temporel |
domaine fréquentiel |
linéarité |
v(t) + a u(t) |
V(w) + a U(w) |
similitude |
v(at) |
|
dérivation |
|
(jw)n V(w) |
intégration |
|
|
retard temporel |
v(t-t) |
|
convolution temporelle |
v(t) u(t) |
V(w) U(w) |
multiplication temporelle |
v(t) u(t) |
V(w) U(w) |
symétrie |
signal réel |
- module et partie réelle pairs - phase et partie imaginaire impaires |
Ces propriétés nous permettent quelques remarques :
- la transformation d'une convolution temporelle en une multiplication fréquentielle, nous permettra des calculs simples sur les quadripôles :
vs(t)=ve(t) h(t) => Vs(w) = Ve(w) H(w)
où H(w) est la fonction de transfert du quadripôle, c'est à dire la transformé de Fourier de sa réponse impulsionnelle. La fonction de transfert peut être calculée en régime sinusoïdal.
- un retard dans le domaine temporel se traduit par un simple retard de phase proportionnel à la fréquence dans le domaine fréquentiel ; cette propriété est utilisée pour les lignes à retard par exemple.
- une multiplication temporelle se traduit par une convolution fréquentielle et réciproquement. Echantillonner le domaine fréquentiel revient alors à "périodiser" le domaine temporel et inversement. On retrouvera cette propriété pour la modulation d'amplitude et surtout pour les systèmes échantillonnés.
L'opération d'échantillonnage étant une multiplication temporelle par une suite d'impulsions, cela se traduira dans le domaine fréquentiel par une "périodisation" du spectre.
On trouvera également une illustration de cette propriété dans les exemples fournis en annexe 2 avec le signal sinusoïdal, le signal échelon et le signal sinusoïdal causal qui peut être vu comme la multiplication des deux précédents.
- la propriété de similitude nous montre qu'une dilatation de l'échelle des temps produit l'effet inverse sur l'échelle des fréquences : il faudra donc une bande passante plus grande pour passer une impulsion plus courte.
On peut noter que les expressions de la transformation données au début du paragraphe ne convergent pas pour certains signaux, signal continu par exemple, et d’une manière générale pour tous les signaux dont l’énergie n’est pas finie. On parle alors de signaux à puissance finie (sur une durée d’observation), groupe dans lequel on va trouver les signaux périodiques, les signaux informatifs etc…. On fait dans ce cas appel à la théorie des distributions, qui permet de calculer le spectre, en introduisant des distributions comme l’impulsion de Dirac d(t) ou d(f) (signal nul partout sauf en 0). Les distributions d(t) et d(f) s’expriment respectivement en s-1 et s.
On a alors une relation très simple entre les coefficients cn de la série de Fourier d’un signal périodique de fréquence F0 et la transformation S(f) de ce même signal par la relation :
On peut noter la cohérence des unités, pour un signal en V, les coefficients cn sont en V et S(f) est alors en V.s.
Alors que la transformation de Fourier s'intéresse au domaine fréquentielle, la transformation de Laplace permet de linéariser les équations différentielles et calculer simplement les réponses temporelles d'un système. Cet outil sera utilisé plutôt en automatique et ne concerne que des signaux causaux (c'est à dire nuls pour les temps négatifs). L'expression de la transformée de Laplace V(p) d'un signal v(t) est donné par :
Bien que l'utilisation des transformations de Laplace et Fourier soit différentes, on peut remarquer la similitude des deux expressions, en particulier en régime harmonique ou la variable de Laplace p peut s'écrire jw.
Les principales propriétés sont résumées dans le tableau suivant :
propriété |
domaine temporel |
domaine de Laplace |
linéarité |
v(t) + a u(t) |
V(p) + a U(p) |
dérivation |
|
|
intégration |
|
|
retard |
v(t-t) |
|
valeur initiale |
|
|
valeur finale |
à condition que les limites existent |
Notons quelques remarques concernant ces propriétés et leur utilisation:
- les propriétés de linéarité, dérivation et d'intégration permettent de résoudre facilement les équations différentielles d'ordre élevé dans le domaine de Laplace. Pour un système électrique linéaire, on peut alors établir la fonction de transfert d'un quadripôle à partir des impédances opérationnelles de chaque élément. On obtiendra la même fonction de transfert qu'en utilisant la transformation de Fourier en remplaçant p par jw.
- le théorème du retard est à la base de la transformation en "z" des systèmes échantillonnés.
Une fois échantillonnés, les signaux se présentent comme une suite d'impulsions, plus ou moins grandes, séparées par un temps TE=1/FE correspondant à la période d'échantillonnage. Le problème va consister à trouver une modélisation permettant de déterminer par exemple l'algorithme à mettre dans un calculateur pour répondre à un cahier des charges.
Une impulsion placée à t=o et d'amplitude A, a pour
transformée de Laplace A. La même décalée de nTE, d'après le théorème du retard s'écrit . En utilisant la propriété de linéarité de la transformation
de Laplace, on peut donc écrire la transformée du signal échantillonné. Afin
d'alléger l'écriture on introduit la variable
:
puis on simplifiera éventuellement l'expression en utilisant les propriétés de convergence des séries.
Si on souhaite observer le comportement fréquentiel, il suffit de remplacer z par ejwTE pour pouvoir tracer le spectre.
Exemple : considérons un filtre numérique dont la réponse impulsionnelle est constituée d'une impulsion unitaire retardée de 5 échantillons. Il s'agit donc d'une simple ligne à retard. Sa transformée en z vaut H(z)=z-5 et sa transformée de Fourier H(w)= e -5 j wTE . Le module de cette dernière est unitaire et la phase est linéaire et vaut -5wTE, ce qui correspond bien à une ligne à retard.
Lorsque l'allure temporelle d'un signal est impossible à prévoir, on ne peut utiliser la transformation de Fourier. Par contre la connaissance de certaines propriétés statistiques du signal (densité de probabilité, espérance mathématiques, valeur quadratique moyenne, fonction auto-corrélation etc...) permettent de déterminer la densité spectrale de puissance (qui est la transformée de Fourier de la fonction auto-corrélation d'après le théorème de Wiener Khintchine). La densité spectrale (en V²s pour une tension et A²s pour un courant) de puissance, qui est un nombre réel positif, va permettre de caractériser en fréquence le signal. On peut là encore considérer une densité bilatérale ou mono latérale dont l'amplitude sera le double de la précédente.
Il faut noter que la densité spectrale de puissance est comme son nom l'indique une information sur la puissance que peut fournir un signal dans chaque bande de fréquence. Nous n'avons ainsi accès qu'au module au carré de la transformée de Fourier. Pour pouvoir reconstituer le signal, comme il est possible avec la transformée de Fourier, il nous manque l'information phase (le signal étant aléatoire, il ne peut être reconstitué).
Le signal reçu par un récepteur quelconque est à priori aléatoire (sinon autant le générer directement dans le récepteur). Pour concevoir le récepteur, il est au moins nécessaire de savoir dans quelle bande de fréquence aura lieu la réception.
On appelle bruit tout signal susceptible de se superposer à un signal informatif et ainsi gêner la transmission, le bruit des uns pouvant être l'information des autres. Citons les plus courants;
Il est dû à l'agitation électronique dans un élément résistif. C'est théoriquement un bruit blanc, c'est à dire un bruit de densité spectrale constante sur tout le spectre de fréquence (par analogie à la lumière blanche :
DT=2KTR en bilatéral (4KTR en mono latéral) en V²s avec T : température en °K K : constante de Boltzman 1,3 10-23 R : valeur de l'élément résistif en W |
|
En pratique, les appareils de mesure étant de bande passante limitée, il s'agit d'un bruit rose (c'est à dire dont la densité retombe à 0 en haute fréquence).
Une résistance pourra donc être modélisée par une résistance non bruyante et un générateur de tension de bruit en série. Les résistances issues d'une modélisation, comme la résistance dynamique d'une diode ou le paramètre h11 d'un transistor, sont non bruyantes.
Un courant continu I0, à l'échelle microscopique est en fait discontinu. La variation de courant peut être vue comme un générateur de bruit, de répartition spectrale uniforme (bruit blanc) de valeur :
DG= e I0 en bilatéral (2 e I0 en mono latéral) en A²s avec e : charge élémentaire 1,6 10-19C I0 : valeur moyenne du courant |
|
On retrouvera ce bruit à chaque générateur de courant, dans la modélisation petits signaux d'une diode passante ou d'un transistor par exemple. I0 sera alors la valeur du courant de polarisation.
diode passante |
transistor bipolaire |
densités spectrales mono latérales eBB' : 4KTRBB' ibase : 2 e IB0 icoll : 2 e IC0 |
Ils sont généralement dus à des signaux périodiques : réseau de distribution 50 Hz, alimentation à découpage etc...Leur spectre est donc composé de raies aux fréquences multiples de la fréquence fondamentale.
L'origine de ce bruit est mal connue. Il doit son nom à la forme de sa densité spectrale de puissance. Il intervient surtout en basses fréquences.
La quantification d'un signal introduit une erreur due au
fait que le pas de quantification q n'est pas nul. Cette erreur peut être vue
comme un bruit d'amplitude maximale se superposant au
signal utile.
Le problème se résume souvent à déterminer le rapport signal sur bruit d'un signal en sortie d'un quadripôle, connaissant le signal d'entrée (utile et bruit superposé) et le quadripôle.
On établit dans un premier temps un schéma équivalent du quadripôle en plaçant les différentes sources de bruit externes et internes ayant pour origine les éléments résistifs, les générateurs de courant, plus divers générateurs représentant par exemple le bruit en 1/f (suivant la finesse de la modélisation).
On calcule ensuite le bruit généré en sortie par chaque source de bruit par :
avec DSX : densité spectrale en sortie due à DEX
G1(w) : fonction de transfert entre la sortie et le générateur de densité DEX
Ces sources de bruits étant supposées indépendantes, on peut appliquer le théorème de superposition et considérer que la densité spectrale totale du bruit en sortie sera la somme des densités spectrales en sorties dues à chaque source de bruit.
Pour connaître la puissance de bruit, il faut intégrer la densité spectrale de bruit sur la bande de fréquence de travail. Pour un bruit blanc, cette opération se résume à une simple multiplication de la densité spectrale par la bande de fréquence. On peut alors calculer le rapport signal sur bruit.
Théorie du signal - composants par Manneville et Esquieux chez Dunod
Traitement du signal par J. Max chez Masson
Transmission de l'information par P. Fraisse, R. Protière et D. Marty-Dessus chez Ellipse
Principes fondamentaux des télécommunications par P. Clerc et P. Xavier chez Ellipse
Séries de Fourier
Transformées de Fourier
Transformées de Laplace